menu
close
医療用AIシステム、画像解析で否定表現を理解できず

医療用AIシステム、画像解析で否定表現を理解できず

MITの研究者らは、医療画像解析に用いられるビジョン・ランゲージモデル(VLM)が「no」や「not」といった否定語を理解できないことを発見した。この欠陥により、危険な誤診が生じる可能性がある。否定表現に関するタスクでAIシステムはランダムな推測と同程度の精度しか示さず、医療現場での運用に深刻...

AIビジョンモデルは否定表現を理解できず、医療ミスのリスクに

AIビジョンモデルは否定表現を理解できず、医療ミスのリスクに

MITの研究者らは、ビジョン・ランゲージ・モデル(VLM)が「no」や「not」といった否定語を理解できず、テストではランダムな推測と同程度の精度しか示さないことを発見した。この根本的な欠陥は、現状と非現状の区別が極めて重要な医療現場において、重大な診断ミスにつながる可能性がある。研究チーム(...